AI 반도체는 대량 데이터를 효율적으로 처리해 AI 성능을 향상시키는 중요한 역할을 한다. 이는 에너지 소비를 최소화하며 비용 효율성과 확장성을 제공한다는 점이 핵심이다. 다시 말해 AI 반도체는 AI 기술 발전을 가속하는 요소다. 이런 이유로 세계 유수의 반도체 기업들이 AI 반도체 개발에 집중하고 있다. 압도적인 GPU 성능으로 AI 반도체 시장을 주도하는 엔비디아, 그 아성에 도전하는 인텔과 삼성전자 등이 그 주인공이다. 저만치 달아난 엔비디아, 따라잡을 수 있을까? 지난 3월, 엔비디아는 반도체 업계에 또 하나의 파장을 일으켰다. 엔비디아는 미국 캘리포니아주 새너제이 SAP 센터에서 열린 개발자 컨퍼런스 ‘GTC(GPU Technology Conference) 2024’에서 새로운 AI 칩을 전 세계에 공개했다. 엔비디아는 2019년 이후 5년 만에 오프라인으로 GTC를 개최해 업계의 화제를 모았다. 이 칩은 새로운 그래픽처리장치(GPU) ‘블랙웰’을 기반으로 한 ‘B100’이었다. 블랙웰은 2년 전 발표된 엔비디아 호퍼 아키텍처의 후속 기술로, B100은 기존 최고 성능을 자랑했던 H100을 뛰어넘는다는 평가다. 엔비디아에 따르면, B100의 연산
생성형 AI 워크로드 관련 컴퓨팅 요구 사항에 맞춰 시스템 맞춤화 지원 델 테크놀로지스(이하 델)가 자사의 고성능 AI 서버 ‘델 파워엣지 XE9680’에 ‘인텔 가우디 3’ AI 가속기 지원을 추가한다고 밝혔다. 델은 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객에게 폭넓은 선택지를 제공한다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화한 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디 3 가속기를 통합함으로써 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화하도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다. 탁월한 안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프
가우디 3 발표와 함께 기업용 AI 구축 위한 에코시스템 형성 및 개방성 강조 인텔코리아가 11일인 오늘 여의도 FKI타워 루비홀에서 '인텔 비전 2024 브리핑'을 진행했다. 인텔 연례행사인 인텔 비전 2024는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 열렸다. 이 행사에서 업계의 이목을 끈 것은 단연 '가우디 3'의 출시 발표였다. 인텔은 가우디 3 가속기와 함께 기업의 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 언급했다. 특히 가우디 3는 공통 표준을 따르는 이더넷으로 최대 수만 개의 가속기를 연결해 AI 시스템을 구동할 것으로 보인다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 "가우디 3를 통해 생성형 AI를 대규모로 배포하려는 기업에 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 것"이라고 밝혔다. 가우디 3가 주목받은 이유 중 하나는 엔비디아의 대항마로 떠올랐다는 점이다. 인텔은 엔비디아 H100과 비교하며 "가우디 3는 70억 개 및 130억 개의 매개변수가 있는 라마2 모델과 GPT-3